Un reciente fallo del Alto Tribunal de Justicia del Reino Unido en el caso de Getty Images contra Stability AI ha establecido un precedente crucial para la era de la inteligencia artificial generativa, al trazar una línea legal clara: el modelo de IA y los contenidos que este produce son dos cosas distintas. El tribunal absolvió al motor, pero encontró responsabilidad limitada en algunas de sus creaciones.
El argumento central de Getty, y el de gran parte de la industria creativa, era que, si un modelo como Stable Diffusion fue entrenado con millones de imágenes protegidas por derechos de autor, el modelo en sí mismo debía ser considerado una "copia infractora". Sin embargo, la Jueza Joanna Smith rechazó esta tesis.
La decisión se basó en una distinción técnica fundamental: el modelo no almacena las imágenes originales, sino que aprende patrones y relaciones conceptuales de ellas. Los "pesos" del modelo no son una reproducción de las obras de Getty, sino el resultado de un proceso de aprendizaje. Por lo tanto, el tribunal dictaminó que el modelo en sí no infringe los derechos de autor según la estricta legislación británica. Esta es una victoria significativa para Stability AI, ya que valida que el proceso de entrenamiento no "contamina" legalmente al producto tecnológico resultante.
No obstante, la victoria de Stability AI no fue absoluta. Getty presentó una segunda línea de ataque argumentando la infracción de sus marcas registradas. La evidencia mostró que ciertas versiones del modelo generaban imágenes que incluían réplicas de las icónicas marcas de agua de Getty e iStock. En este punto, el tribunal sí dio la razón a Getty. La jueza determinó que la aparición de estas marcas de agua en una imagen sintética podría generar una "probabilidad de confusión" en el consumidor promedio, quien podría creer erróneamente que Getty estaba afiliada a Stability AI o había licenciado el modelo. Esto se consideró una infracción de marca registrada. Sin embargo, el tribunal matizó esta victoria, señalando que Getty solo pudo demostrar este problema en versiones anteriores de Stable Diffusion (v1.x y v2.x) y no en las más recientes.
Las implicaciones estratégicas de este fallo son dobles.
Primero, establece una separación conceptual entre la herramienta de IA y su resultado. El riesgo legal se desplaza del desarrollo (el entrenamiento del modelo) a la implementación (el uso y los resultados generados).
Segundo, la responsabilidad recae ahora en la gobernanza de los resultados. El hecho de que Getty prevaleciera en el frente de la infracción de marca demuestra que las empresas que utilizan IA generativa son responsables de lo que esta produce. Ya no basta con adoptar la tecnología por su eficiencia; es obligatorio implementar sistemas de monitoreo y filtrado para asegurar que los contenidos generados no infrinjan derechos de terceros. Si una IA confunde al público sobre su origen, la responsabilidad no será del algoritmo, sino de la organización que lo desplegó.
Este juicio no es el final de la historia, ya que Getty mantiene un litigio paralelo de mayor envergadura en Estados Unidos, donde la doctrina del "uso justo" (fair use) será central. La lección de este primer veredicto es clara: la innovación debe ir acompañada de prudencia, separando el potencial de la máquina de la responsabilidad por sus actos.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp